310 research outputs found
Collaboratively Patching Linked Data
Today's Web of Data is noisy. Linked Data often needs extensive preprocessing
to enable efficient use of heterogeneous resources. While consistent and valid
data provides the key to efficient data processing and aggregation we are
facing two main challenges: (1st) Identification of erroneous facts and
tracking their origins in dynamically connected datasets is a difficult task,
and (2nd) efforts in the curation of deficient facts in Linked Data are
exchanged rather rarely. Since erroneous data often is duplicated and
(re-)distributed by mashup applications it is not only the responsibility of a
few original publishers to keep their data tidy, but progresses to be a mission
for all distributers and consumers of Linked Data too. We present a new
approach to expose and to reuse patches on erroneous data to enhance and to add
quality information to the Web of Data. The feasibility of our approach is
demonstrated by example of a collaborative game that patches statements in
DBpedia data and provides notifications for relevant changes.Comment: 2nd International Workshop on Usage Analysis and the Web of Data
(USEWOD2012) in the 21st International World Wide Web Conference (WWW2012),
Lyon, France, April 17th, 201
Entity Type Prediction in Knowledge Graphs using Embeddings
Open Knowledge Graphs (such as DBpedia, Wikidata, YAGO) have been recognized
as the backbone of diverse applications in the field of data mining and
information retrieval. Hence, the completeness and correctness of the Knowledge
Graphs (KGs) are vital. Most of these KGs are mostly created either via an
automated information extraction from Wikipedia snapshots or information
accumulation provided by the users or using heuristics. However, it has been
observed that the type information of these KGs is often noisy, incomplete, and
incorrect. To deal with this problem a multi-label classification approach is
proposed in this work for entity typing using KG embeddings. We compare our
approach with the current state-of-the-art type prediction method and report on
experiments with the KGs
Predicting wikipedia infobox type information using word embeddings on categories
Wikipedia has emerged as the largest multilingual, web based general reference work on the Internet. A huge amount of human resources have been invested in the creation and update of Wikipedia articles which are ideally complemented by so-called infobox templates defining the type of the underlying article. It has been observed that the Wikipedia infobox type information is often incomplete and inconsistent due to various reasons. However, the Wikipedia infobox type information plays a fundamental role for the RDF type information of Wikipedia based Knowledge Graphs such as DBpedia. This stimulates the need of always having the correct and complete infobox type information. In this work, we propose an approach to predict Wikipedia infobox types by using word embeddings on categories of Wikipedia articles, and analyze the impact of using minimal information from the Wikipedia articles in the prediction process
Rechnernetze und Internettechnologie - Übungsblatt 08
Themenübersicht und Administratives zur Vorlesun
Web 2.0 Technologien: Bibliotheken der Zukunft - Zukunft der Bibliotheken
Vortrag am 6. 9. 2006 auf der InetBib 2007 in Münste
Lecture on Demand - Automatische Annotation und Suche in Multimediapräsentationen
Lectures on Demand - Automatische Annotation und Suche in Multimediapräsentationen
Die Zahl der aufgezeichneten Lehrveranstaltungen und der zugehörigen multimedialen
Vorlesungsmaterialien wächst beständig. Zwar bieten ausgereifte Datenbanksysteme die
Möglichkeit, die dort archivierten Materialien über Schlüsselworte gezielt
auszuzeichnen und nach diesen zu suchen, jedoch ist eine inhaltliche Suche und
zielgenauer Zugriff auf Einzelinhalte in der Regel nicht möglich.
Vorgestellt wird ein System zur automatischen Annotation von Vorlesungsaufzeichnungen,
das die vom Dozenten verwendete Präsentation als Grundlage für die semantische
Auszeichnung einzelner Vorlesungsabschnitte verwendet. Darauf aufbauend wurde eine
Suchmaschine realisiert, die es erlaubt, aus einem entsprechend annotierten
Vorlesungsdatenbestand über die Angabe einzelner Suchbegriffe genau diejenigen
Vorlesungsabschnitte herauszufiltern, die tatsächlich in einem inhaltlichem
Zusammenhang stehen. Dadurch hat der Nutzer die Möglichkeit, sich eine eigene
'maßgeschneiderte' Vorlesung entsprechend seinen Informationsbedürfnissen zusammenstellen
Der Computer als universales Kommunikationsmedium
Neben einer ersten Übersicht der in diesem Semester behandelten Themen ist die Entwicklung der Kommunikationsmedien -- insbesondere des Computers -- Gegenstand dieser Vorlesung. Dabei wird die Geschichte der Medien, angefangen von den ersten Höhlenzeichnungen bis hin zum allgegenwärtigen, ubiquitären Computernetz aufgegriffen. Die Entwicklung des Internets als universales demokratisches Kommunikations- und informationsmedium ist natürlich eng verknüpft mit der ständig fortschreitenden technischen Evolution des Computers mit dem Ziel einer grenzenlosen und unbeschränkten Kommunikation
- …